FILTER MODE ACTIVE

#разреженное внимание

Найдено записей: 5

#разреженное внимание07.07.2025

Радиальное внимание: снижение затрат на видео-диффузию в 4,4 раза без потери качества

Радиальное внимание представляет новый механизм разреженного внимания, который сокращает затраты на обучение в 4,4 раза и время инференса в 3,7 раза в видео-диффузионных моделях, позволяя создавать более длинные видео без потери качества.

#разреженное внимание16.06.2025

MiniCPM4 от OpenBMB: революция в edge AI с ультраэффективными языковыми моделями

OpenBMB представила MiniCPM4 — ультраэффективные большие языковые модели, оптимизированные для edge-устройств, с разреженным вниманием и быстрым инференсом, превосходящие конкурентов при меньшем объёме данных.

#разреженное внимание07.05.2025

Университет Фудань представляет Lorsa: разбор суперпозиции внимания в трансформерах с помощью разреженных механизмов

Исследователи из Университета Фудань разработали Lorsa — механизм разреженного внимания, позволяющий выделять атомарные единицы внимания, скрытые в суперпозиции трансформеров, что улучшает интерпретируемость языковых моделей.

#разреженное внимание05.05.2025

RWKV-X: Революция в моделировании длинных контекстов с помощью разреженного внимания и рекуррентной памяти

RWKV-X представляет гибридную модель, объединяющую разреженное внимание и рекуррентную память для эффективного декодирования очень длинных последовательностей с линейной сложностью, превосходя предыдущие модели RWKV в задачах с длинным контекстом.

#разреженное внимание30.04.2025

Переосмысление разреженного внимания: прорывы для эффективных больших языковых моделей с длинным контекстом

Исследователи из Эдинбурга, Cohere и Meta показали, что большие разреженные модели превосходят меньшие плотные при работе с длинным контекстом, предложив новые законы масштабирования и стандартизированные методы.